Hackeos con IA aumentaron más de 1.000 % entre 2021 y 2024
Los ciberataques de fuerza bruta contra credenciales de usuario crecieron de 579 intentos por segundo en 2021 a 7.000 por segundo en 2024, según Microsoft. Además, un 87 % de las organizaciones globales sufrió al menos un ataque impulsado por inteligencia artificial en 2024 (bobsGuide), y se estima que en el corto plazo el 92 % de todos los ciberataques emplearán técnicas de IA (ImpactoTIC).
Este crecimiento explosivo está estrechamente ligado al auge de los grandes modelos de lenguaje (LLMs) y otras herramientas de IA de fácil acceso. Sectores financieros y bancarios, compañías de seguros, salud y entidades gubernamentales son los blancos favoritos, dada la magnitud de los datos y el posible botín.
En Latinoamérica, un informe de Global PT Security revela que entre 2023 y 2024 el 21 % de las organizaciones gubernamentales y el 13 % de las financieras fueron víctimas de ataques cibernéticos. Colombia, por su parte, registró 36 000 000 000 de intentos de ciberataque entre enero y noviembre de 2024, afectando principalmente salud, manufactura, transporte, logística y automotriz (44 %) (Infobae).
En este sentido, Adrián Cuesta, vicepresidente de Investigación y Desarrollo de Octapus, explica que la combinación de IA y automatización permite a los ciberdelincuentes diseñar ataques más sofisticados, a mayor velocidad y escala, poniendo en jaque la seguridad de usuarios y empresas.
IA: El nuevo brazo armado del cibercrimen
La inteligencia artificial no solo acelera la prueba de contraseñas, sino que también ha revolucionado la ingeniería social. Correos de phishing y mensajes en WhatsApp o Instagram usan contenido generado por IA para resultar más creíbles y personalizados, lo que dificulta su detección.
Adrián Cuesta, vicepresidente de Investigación y Desarrollo de Octapus, precisa que “desde Octapus vemos cómo los modelos generativos permiten crear mensajes cada vez más convincentes, replicando estilos de escritura y voces con una fidelidad alarmante, lo que eleva la tasa de éxito de los ataques”.
Además, los deepfakes de voz y vídeo facilitan fraudes telefónicos masivos y campañas de ransomware, ya que la víctima confía en un familiar o colega cuya voz e imagen han sido falsificadas.
¿Cómo blindar tu seguridad frente a la IA criminal?
Es por ello por lo que Adrián Cuesta, vicepresidente de Investigación y Desarrollo de Octapus, recomienda que:
- Se adopte una política de confianza cero: nunca aceptar solicitudes urgentes de dinero o datos sin verificar la identidad por un segundo canal (videollamada, mensaje alternativo, etc.).
- Se utilicen herramientas como Have I Been Pwned y VirusTotal para comprobar si credenciales o archivos han sido comprometidos.
- Se empleen VPNs confiables (no gratuitas), gestores de contraseñas y autenticación de doble factor (MFA) disponibles en soluciones de Microsoft y Google.
- Se evite conectarse a redes Wi-Fi públicas y se descargue solo contenido de fuentes oficiales.
- En el ámbito empresarial, se realicen análisis de vulnerabilidades y reconocimiento de la superficie de ataque de forma continua, apoyándose en soluciones automatizadas de Octapus para anticiparse a las tácticas de los ciberdelincuentes.
La combinación de buenas prácticas, herramientas especializadas y una cultura de seguridad es la mejor defensa frente a la creciente amenaza de la inteligencia artificial en el cibercrimen. Octapus continúa desarrollando soluciones de ciberseguridad para ayudar a organizaciones de todos los tamaños a proteger su información y mantener una postura proactiva frente a los ataques.